home *** CD-ROM | disk | FTP | other *** search
/ Group 42-Sells Out! - The Information Archive / Group 42 Sells Out (Group 42) (1996).iso / crypto / cryptogr.txt < prev    next >
Text File  |  1995-11-30  |  66KB  |  1,624 lines

  1. CRYPTOGRAPHY: TRENDS IN TECHNOLOGY AND POLICY
  2.  
  3.  
  4.  
  5.  
  6. Lance J. Hoffman
  7. Faraz A. Ali
  8. Steven L. Heckler
  9. Ann Huybrechts
  10.  
  11.  
  12.  
  13.  
  14.  
  15. December 5, 1993
  16.  
  17.                                           
  18.  
  19. Prepared by
  20. The George Washington University
  21. Office of Sponsored Research
  22. Subcontract No. 19K-RF105C
  23.  
  24.  
  25. DOE Project No. XXXXXXX
  26.  
  27.  
  28.  
  29.  
  30. Prepared for
  31. Data Systems Research and Development Program
  32. Technical Operations
  33. Oak Ridge K-25 Site
  34. Oak Ridge, Tennessee 37831-7620
  35. Managed by
  36. MARTIN MARIETTA ENERGY SYSTEMS, INC.
  37. for the
  38. U.S. DEPARTMENT OF ENERGY
  39. under contract DE-AC05-84OR21400
  40. DISCLAIMER
  41.  
  42. This report was prepared as an account of work sponsored by an agency
  43. of the United States
  44. Government.  Neither the United States Government nor any agency
  45. thereof, nor any of their employees,
  46. makes any warranty, express or implied, or assumes any legal
  47. liability or responsibility for the accuracy,
  48. completeness, or usefulness of any information, apparatus, product,
  49. or process disclosed, or represents
  50. that its use would not infringe privately owned rights.  Reference
  51. herein to any specific commercial
  52. product, process, or service by trade name, trademark, manufacturer,
  53. or otherwise, does not necessarily
  54. constitute or imply its  endorsement, recommendation, or favoring by
  55. the United States Government or
  56. any agency thereof.  The views and opinions of authors expressed
  57. herein do not necessarily state or
  58. reflect those of the United States Government or any agency thereof.
  59.  
  60.  
  61.  
  62.  
  63.  
  64.  
  65.  
  66.  
  67.  
  68. CRYPTOGRAPHY: TRENDS IN TECHNOLOGY AND POLICY
  69.  
  70.  
  71.  
  72.  
  73. Lance J. Hoffman
  74. Faraz A. Ali
  75. Steven L. Heckler
  76. Ann Huybrechts
  77.  
  78.  
  79.  
  80.  
  81.  
  82. December 5, 1993
  83.  
  84.                                           
  85.  
  86. Prepared by
  87. The George Washington University
  88. Office of Sponsored Research
  89. Subcontract No. 19K-RF105C
  90.  
  91.  
  92. DOE Project No. XXXXXX
  93.  
  94.  
  95.  
  96.  
  97. Prepared for
  98. Data Systems Research and Development Program
  99. Technical Operations
  100. Oak Ridge K-25 Site
  101. Oak Ridge, Tennessee 37831-7620
  102. Managed by
  103. MARTIN MARIETTA ENERGY SYSTEMS, INC.
  104. for the
  105. U.S. DEPARTMENT OF ENERGY
  106. under contract DE-AC05-84OR21400
  107.  
  108.  
  109.  
  110. CONTENTS
  111.  
  112.  
  113.  
  114. EXECUTIVE SUMMARY . . . . . . . . . . . . . . . . . . . . . . . . . .
  115. . . . . . .  v
  116.  
  117. 1.  INTRODUCTION. . . . . . . . . . . . . . . . . . . . . . . . . . .
  118. . . . . . .  1
  119.  
  120. 2.  TECHNOLOGY. . . . . . . . . . . . . . . . . . . . . . . . . . . .
  121. . . . . . .  3
  122.  
  123. 3.  MARKET ANALYSIS . . . . . . . . . . . . . . . . . . . . . . . . .
  124. . . . . . .  7
  125.  
  126. 4.  EXPORT CONTROLS . . . . . . . . . . . . . . . . . . . . . . . . .
  127. . . . . . .  9
  128.  
  129. 5.  PUBLIC POLICY ISSUES. . . . . . . . . . . . . . . . . . . . . . .
  130. . . . . . . 13
  131.       5.1  EXECUTIVE BRANCH . . . . . . . . . . . . . . . . . . . . .
  132. . . . . . . 13
  133.       5.2  CONGRESS . . . . . . . . . . . . . . . . . . . . . . . . .
  134. . . . . . . 14
  135.       5.3  TRENDS . . . . . . . . . . . . . . . . . . . . . . . . . .
  136. . . . . . . 16
  137.  
  138. 6.  POTENTIAL SCENARIOS . . . . . . . . . . . . . . . . . . . . . . .
  139. . . . . . . 17
  140.  
  141. REFERENCES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  142. . . . . . . 19
  143.  
  144.       
  145.  
  146.       
  147.                                           
  148.  
  149.  
  150.  EXECUTIVE SUMMARY
  151.  
  152.  
  153. During the past five years, encryption technology has become easily
  154. available to both individuals and
  155. businesses, affording them a level of security formerly available
  156. practically to only military, national
  157. security, and law enforcement agencies. As a result, a debate within
  158. the United States about the proper
  159. balance between national security and personal freedom has been
  160. initiated. Law enforcement and national
  161. security agencies would like to maintain tight control over civilian
  162. encryption technologies, while industry
  163. and individual and privacy rights advocates fight to expand their
  164. ability to distribute and use
  165. cryptographic products as they please.  
  166.       
  167. This report analyzes trends in encryption technology, markets, export
  168. controls, and legislation.  It
  169. identifies five trends which will have a strong influence on
  170. cryptography policy in the United States:
  171.       
  172.       ~ The continued expansion of the Internet and the progressive
  173. miniaturization of cryptographic
  174.       hardware combined with the  increasing availability and use of
  175. strong cryptographic software
  176.       means that the strongest encryption technologies will  continue
  177. to become more easily obtainable
  178.       everywhere in the years ahead.  
  179.  
  180.       ~ Additional growth in networked and wireless communication
  181. will fuel a strong demand for
  182.       encryption hardware and software both domestically and abroad,
  183. causing the U. S.
  184.       high-technology industry to be increasingly interested in
  185. selling encryption products overseas and
  186.       in modifying current export restrictions.  
  187.  
  188.       ~ Due to the responsibilities and bureaucratic dispositions of
  189. key Executive Branch agencies,
  190.       products using strong encryption algorithms such as DES will
  191. continue to face at least some
  192.       export  restrictions, despite the widespread availability of
  193. strong encryption products overseas.
  194.  
  195.       ~ The American public is likely to become increasingly
  196. concerned about its privacy and about
  197.       cryptographic policy as a result of the increased amount of
  198. personal information available online
  199.       and the growing number of wireless and networked
  200. communications.  The development and
  201.       increasingly widespread use of the National Information
  202. Infrastructure will heighten these
  203.       concerns. 
  204.  
  205.       ~ Encryption policy is becoming an important public policy
  206. issue that will engage the attention
  207.       of all branches of government.  Congress will become
  208. increasingly visible in this debate due to
  209.       its power of agency oversight and its role in passing laws
  210. accommodating the United States~ rapid
  211.       rate of technological change.  Agencies will remain very
  212. important since they have the
  213.       implementing and, often, the planning responsibilities.  Since
  214. individuals and industry have more
  215.       direct influence over Congress than over most other branches of
  216. government, Congress may place
  217.       somewhat more emphasis on personal freedom than many other
  218. government actors.
  219.  
  220. Four potential scenarios are likely: mandatory escrowed encryption,
  221. voluntary escrowed encryption,
  222. complete decontrol of encryption, or domestic decontrol with strict
  223. export regulations.
  224.  
  225.  
  226. 1.  INTRODUCTION
  227.  
  228.  
  229. During the past five years, encryption technology has become easily
  230. available to both individuals and
  231. businesses, affording them a level of security formerly available
  232. practically to only military, national
  233. security, and law enforcement agencies.  This availability and the
  234. desirability of encrypting some
  235. communications is just starting to be generally recognized by
  236. American business, and the encryption
  237. market is just now beginning to emerge as a significant part of the
  238. computer security market.  As a result,
  239. a debate within the United States about the proper balance of
  240. national security, law enforcement, and
  241. personal freedom has been initiated.  Law enforcement and national
  242. security agencies would like to
  243. maintain tight control over civilian encryption technologies, while
  244. industry and individual and privacy
  245. rights advocates fight to expand their ability to distribute and use
  246. cryptographic products as they please.1 
  247.  
  248. This report analyzes trends in encryption technology and policy
  249. against this backdrop.  It is one in a
  250. trilogy of research papers being prepared under the direction of
  251. Professor James Chandler of the George
  252. Washington University National Law Center and Professor Lance Hoffman
  253. of the George Washington
  254. University School of Engineering and Applied Science, Department of
  255. Electrical Engineering and
  256. Computer Science.  The papers cover the following topics:
  257.  
  258.       Issues Regarding the Use of Cryptographic Technologies in the
  259. Commercial Sector.  Review and
  260.       analysis of U.S. laws, regulations, and case law pertaining to
  261. the use of commercial encryption
  262.       products for voice and data communications between private
  263. parties located within continental
  264.       U.S. boundaries and with parties in foreign jurisdictions,
  265. including examination of all applicable
  266.       Federal statutes, regulations, executive orders, and other
  267. publicly available sources of legally
  268.       binding directives.  Laws or regulations which have been
  269. interpreted as mandating the use of
  270.       cryptographic systems are also included. 2
  271.  
  272.       Foreign Encryption Technology Controls.  Identification and
  273. analysis of foreign laws and
  274.       regulations pertaining to the use and control of commercial
  275. encryption products for voice and data
  276.       communications. 3  
  277.  
  278.       Cryptography: Trends in Technology and Policy (this paper).
  279. Encapsulation of current legislation
  280.       and analysis of trends based on the above papers with future
  281. implications for encryption
  282.       technology and the use of commercial encryption products.
  283.  
  284.       This report is divided into four primary sections:
  285.  
  286.              ~ Technology:  future trends in high technology and,
  287. more specifically, encryption
  288.              technology.
  289.       
  290.              ~ Market Analysis:  trends in the global market for
  291. encryption products, especially DES-
  292.              and RSA-based products.
  293.  
  294.  
  295.              ~ Export Controls: trends that may influence the wording
  296. and implementation of laws
  297.              restricting export of encryption products manufactured
  298. in the United States.
  299.  
  300.              ~ Public Policy Issues: factors and trends that may
  301. determine the future direction of
  302.              policy decisions and legislation related to cryptography
  303. in the United States.
  304.  
  305. After discussions of these topics, four potential scenarios are
  306. briefly presented as possibilities.
  307.  
  308. The authors appreciate the constructive criticism of early drafts and
  309. helpful suggestions made by Diana
  310. Arrington, Donna Berkelhammer, James Chandler, Larry E. Christensen,
  311. Dorothy Denning, Bill
  312. Franklin, Lou Giles, Lamaris Gill, Lynn McNulty, Randolph Williams,
  313. Doug Miller, Robert Rarog,
  314. Allan Suchinsky, and others.  Conclusions or opinions in this paper
  315. are, however, those solely of the
  316. authors and are not necessarily shared by any of the other persons.
  317.  
  318.  
  319.  
  320.  
  321. 2.  TECHNOLOGY
  322.  
  323.  
  324. Commercial encryption technology has evolved since the popular ~Data
  325. Encryption Standard~ (DES)4 was
  326. released to the public in 1977 and will continue to do so during the
  327. foreseeable future.  From a situation
  328. then when only private key systems were generally in use, public key
  329. systems have become increasingly
  330. popular, especially for authentication.  Detailed reviews of the
  331. evolution of cryptography over the last
  332. sixteen years or so can be found in [5] and [6].   In particular,
  333. hardware encryption devices will become
  334. smaller, users will use signatures and digests (typically public key
  335. systems7, 8 as well as private key
  336. systems), and encryption algorithms will become increasingly
  337. powerful.9
  338.  
  339. A cryptographic system generally provides for two functions:
  340. encryption and decryption.  The encryption
  341. function converts data from ~plaintext,~ or normal text, into
  342. In order to perform either of these functions (i.e. to send or
  343. receive an encrypted message), the system~s
  344. user must have a unique ~key,~ a sequence of bits.  This key is input
  345. to the algorithm to successfully
  346. perform the desired conversion.  The strength of an encryption scheme
  347. is dependent both upon the
  348. strength of its algorithm and, often, on the length of the keys used
  349. for encryption and decryption.  Longer
  350. key lengths mean more possible keys for an intruder to try and thus
  351. imply greater security.  Encryption
  352. and decryption are generally performed by a computer with the
  353. assistance of hardware and/or software
  354. cryptographic products.
  355.  
  356. A trend in encryption products, concurrent with the same trend in
  357. computer technology in general, is
  358. towards increasing miniaturization.  For example, in 1988 the primary
  359. encryption device manufactured
  360. by AT&T weighed seventeen pounds.  Now, with the advent of PCMCIA
  361. (Personal Computer Memory
  362. Card Industry Association) technology, it is widely anticipated that
  363. one or more manufacturers will soon
  364. release encryption-capable modems the size of a credit card. 
  365.  
  366. Some observers feel a trend is developing from hardware or
  367. software/hardware products to software-only
  368. products9, 10  because software is cheaper, easier to install and
  369. use, and takes up less space on a computer
  370. than hardware.  Others disagree, thinking that the future of
  371. encryption technology may be in
  372. hardware-based products, because they are faster, harder to
  373. compromise, and also take up very little
  374. space now because of developments in VLSI (Very Large Scale
  375. Integrated) chip design .11
  376.  
  377. There is also a growing use of ~public-key~ cryptography systems.9,
  378. 13  Under a more traditional single
  379. key system, the same key is used both for encrypting and decrypting
  380. the message.  Although this is
  381. reasonably secure, there is a risk that this key will be intercepted
  382. when the parties involved exchange
  383. keys.  A public key system, however, does not necessitate the
  384. exchange of a secret key in the
  385. transmission of messages.  The sender encrypts the message with the
  386. recipient~s freely-disclosed, unique
  387. public key.  The recipient, in turn, uses her unique private key to
  388. decrypt the message.7  It is also
  389. possible to encrypt messages with the sender~s private key, allowing
  390. anyone who knows the sender~s
  391. public key to decrypt the message.  This process is crucial to
  392. creating digital signatures, as discussed
  393. later.
  394.  
  395. Coincident with the increase in electronic communications is the need
  396. to write one~s own signature on
  397. both business and personal transactions.  At the moment, writing
  398. one~s own signature requires written
  399. messages.  Now, however, electronic communications have become so
  400. heavily used that many business
  401. and personal transactions will flourish between parties who never
  402. actually see each other and physically
  403. sign no paper; increasingly, digital signatures will be used to
  404. provide message authentication.
  405.  
  406. Public-key cryptography also enables the user to produce a digital
  407. signature by encrypting with her
  408. private key, which, when decrypted with her public key, provides
  409. verification that the message originated
  410. from that user.  Possible applications for this technology include
  411. online financial transactions and business
  412. negotiations.
  413.  
  414. The DES (Data Encryption Standard) and RSA (named after its inventors
  415. Rivest, Shamir, and Adelman)
  416. algorithms are generally considered two of the strongest algorithms
  417. on the market.  DES is a strong,
  418. private-key algorithm developed by IBM and made a standard by the
  419. United States government in the late
  420. 1970~s.  RSA, in turn, is the most popular public-key algorithm.14
  421. It is based on prime number
  422. generation, using the fact that it is very difficult to factor the
  423. product of two large prime numbers.
  424. Encryption hardware and software products incorporating DES and RSA
  425. are widely available both
  426. domestically and abroad.  Over two million instantiations of RSA have
  427. been distributed in the United
  428. States, in almost every case seamlessly embedded by the vendor.  By
  429. the end of 1994, this number will
  430. rise to five million and by the end of 1995, it will double.15 
  431.  
  432. PGP (Pretty Good Privacy), 16 which originally incorporated RSA,
  433. employs public-key cryptography and
  434. puts together strong algorithms for both authentication and message
  435. transmission.  It now uses a
  436. combination of the IDEA (International Data Encryption Algorithm)17
  437. and DES algorithms, is free, and
  438. can be obtained over the Internet via anonymous FTP ("file transfer
  439. protocol").  
  440.  
  441. DES continues to be an important standard for encrypting data,
  442. particularly within the U. S. and foreign
  443. financial communities.  The National Institutes for Standard and
  444. Technology (NIST) is in the process of
  445. recertifying DES as a national standard for the next five years.
  446. However, the security of DES in the
  447. future is worrisome to some scientists, who contend that advances in
  448. technology will soon make it
  449. possible to break DES by ~brute force,~ using a powerful computer to
  450. try every possible combination
  451. of keys until the correct key is discovered.  Indeed, in ten years,
  452. DES may no longer be secure.18    
  453.  
  454. In contrast, SKIPJACK, the classified encryption/decryption algorithm
  455. used in the White House~s key
  456. escrow (~Clipper~) initiative, utilizes an 80-bit key, 24 bits longer
  457. than the 56-bit key used in DES.  The
  458. interim report of the SKIPJACK evaluators chosen by NSA and NIST came
  459. to three conclusions:19
  460.  
  461.              1.    Under an assumption that the cost of processing
  462. power is halved every eighteen
  463.                    months, it will be 36 years before the cost of
  464. breaking SKIPJACK by exhaustive
  465.                    search will be equal to the cost of breaking DES
  466. today.  Thus, there is no
  467.                    significant risk that SKIPJACK will be broken by
  468. exhaustive search in the next
  469.                    30-40 years.
  470.  
  471.              2.    There is no significant risk that SKIPJACK can be
  472. broken through a shortcut
  473.                    method of attack.
  474.  
  475.  
  476.  
  477.  
  478.              3.    While the internal structure of SKIPJACK must be
  479. classified in order to protect
  480.                    law enforcement and national security objectives,
  481. the strength of SKIPJACK
  482.                    against a cryptanalytic attack does not depend on
  483. the secrecy of the algorithm.
  484.  
  485. Other sources report that many industry representatives believe that
  486. processing power doubles about every
  487. six months to a year.  This would reduce the "safe time" of the first
  488. point above to approximately 12-18
  489. years, rather than 30-40 years.
  490.  
  491. Other escrow schemes are also available.  Micali20 has proposed a
  492. multikey escrow capability in which
  493. multiple trusted parties authenticate a message and/or allow
  494. eavesdropping.  In a recent unpublished
  495. paper, Desmedt, Frankel, and Yung state that threshold cryptosystems
  496. (as presented at recent Crypto,
  497. Asiacrypt, and Eurocrypt conferences) can have the same functionality
  498. as key escrow schemes without
  499. relying on "(expensive) tamperproof devices."21
  500.  
  501. The increasing use and availability of encryption technology
  502. logically accompanies the exponential
  503. increase in electronic communications over the past few years.
  504. Commercial use of the Internet has
  505. increased dramatically during the past two years, and noncommercial
  506. use is on the rise as well.22  Indeed,
  507. as the New York Times whimsically notes, "Forget Elaine's.  Internet
  508. is currently the world's most
  509. fashionable rendezvous."  It touches down in 137 countries and links
  510. 15 million to 30 million people and
  511. is growing by a million users each month.23
  512.       
  513. This growth in the popularity of the Internet has created a demand
  514. for security.  Electronic mail users
  515. who desire confidentiality and sender authentication increasingly are
  516. demanding encryption.  Some are
  517. already using PGP.  Others are starting to use Privacy Enhanced Mail
  518. (PEM), an Internet encryption
  519. mechanism which was funded by the Advanced Research Projects Agency
  520. of the Defense Department and
  521. has recently been introduced as a commercial product by Trusted
  522. Information Systems, Inc.  It uses the
  523. DES algorithm for encryption and the RSA algorithm for sender
  524. authentication and key management.
  525. Privacy Enhanced Mail also provides support for nonrepudiation; this
  526. allows the third-party recipient of
  527. a forwarded message to verify the identity of the message originator
  528. (not just the message forwarder) and
  529. to verify if any of the original text has been altered.24, 25
  530. Although PEM is not yet widespread, a number
  531. of vendors are offering it in conjunction with or integrated into
  532. their commercial electronic mail
  533. applications and the European Community has adopted PEM for its
  534. PASSWORD project26  which is part
  535. of an attempt to establish a pilot security infrastructure for
  536. network applications for the European research
  537. community.  Ironically, a Federally funded chip, Clipper, now is
  538. being pushed as a substitute for this
  539. mechanism which has already been paid for largely by government funds
  540. and is already in place.
  541.  
  542. The increasing number of electronic funds transfers (EFTs) between
  543. banks has necessitated the increasing
  544. use of message authentication systems, to determine if a message has
  545. originated from its proper source
  546. and to determine if there have been any modifications.27  One
  547. institution alone, the Clearing House
  548. Interbank Payment System, currently moves an average of one trillion
  549. dollars each day via wire and
  550. satellite.28   Strong encryption is necessary to provide security and
  551. authentication for these electronic
  552. money transfers (and is also why export restrictions on the DES
  553. algorithm have been relaxed for financial
  554. institutions). 
  555.  
  556. Despite these leaps in technology, telefacsimile (fax) transmissions
  557. are not yet widely encrypted, even
  558. though fax is a widely used form of data communications.  According
  559. to a Datapro 1993 report27,  there
  560. are only 11 encryption devices which accommodate FAX transmissions.
  561. It is inconvenient to equip both
  562. the sending and receiving machine with compatible encryption before
  563. facsimile transmission; the fax
  564. protocol has no convenient place for inserting non-fax functions such
  565. as encryption; and, until recently,
  566. there has been little awareness of security threats among fax users.
  567. However, increasing use of fax
  568. transmissions by businesses who wish to keep their corporate
  569. information and finances confidential and
  570. an increasing awareness of the security problems will require the
  571. availability of more products which
  572. encrypt fax communications.  
  573.  
  574. Credit cards and ATMs are the forerunners of what may soon become
  575. people use less pocket cash every year. Indeed, credit-card purchases
  576. are now used for one-tenth of all
  577. consumer payments.29  David Chaum, head of the Cryptography Group at
  578. the Center for Mathematics
  579. and Computer Science (CWI) in Amsterdam, has proposed a distributed
  580. smart card system which, using
  581. public key cryptography, allows anonymous cash embodied by the cards
  582. to be used like real money.28
  583. This is another consequence of the increasing digitization of
  584. financial transactions: ~Ubiquitous digital
  585. cash dovetails well with massive electronics networks.  It~s a pretty
  586. sound bet the Internet~today~s
  587. version of the Net~will be the first place that e-money will
  588. infiltrate deeply.~ 29 
  589.  
  590. One of the consequences of an increasingly electronics-oriented
  591. economy will be the need to provide some
  592. amount of anonymity and privacy for users of such a digital cash
  593. system in order to ensure that electronic
  594. money remains anonymous and untraceable, except by the payer and
  595. payee.  Government approval will
  596. be requisite for digital cash to gain full approval by the business
  597. community and public, and the
  598. government may require access to these transaction records to prevent
  599. what might otherwise become
  600. "perfect crimes." 30  
  601.  
  602. In conclusion, the current trends in encryption technology include
  603. increasing miniaturization, increasing
  604. use of public and private-key cryptography, and the continued
  605. development of increasingly secure
  606. algorithms.  These trends are all coincident with the skyrocketing
  607. use of the Internet and other types of
  608. electronic communications, particularly electronic money
  609. communications.
  610.                                           
  611.  
  612.  
  613.  
  614.                                  3.  MARKET ANALYSIS
  615.  
  616.  
  617. The market for encryption products is rapidly growing.27 This market
  618. trend is concomitant with the
  619. increasing use of personal computers, fax machines, and e-mail for
  620. electronic communications.  A large
  621. encryption market has also arisen because of wireless communications,
  622. such as cellular telephones. There
  623. are already 12 million subscribers to cellular telephone services in
  624. the United States, and the trend is
  625. toward more wireless communications in the future.  Since they are
  626. easier to intercept than wire-based
  627. ones, the demand for encryption technology will increase as concern
  628. for data integrity increases.9
  629.  
  630. This growth in the market for encryption is occurring both in the
  631. United States and abroad.  According
  632. to International Resource Development, the U. S. data encryption
  633. market reached an estimated $384
  634. million in 1991, and will jump to $946 million by 1996.  The total
  635. worldwide market, estimated at $695
  636. million in 1991, is predicted to grow at a similar rate, reaching
  637. $1.8 billion by 1996.31 
  638.  
  639. The encryption market is no longer left to United States companies to
  640. dominate.  A Software Publishers
  641. Association (SPA) survey shows 264 foreign encryption products and
  642. 288 domestic products.  These
  643. findings contrast sharply with the large global market shares
  644. (approximately 75%) enjoyed by United
  645. States software publishers and hardware manufacturers in other
  646. areas.32  Of the 264 foreign products, 123
  647. products use DES.36 
  648.  
  649. Citing the relatively stringent export controls enforced by the
  650. United States government as being one of
  651. the main reasons for the increasing market share of foreign
  652. cryptographic products in the global market,
  653. many manufacturers are currently lobbying the government to relax
  654. these export controls in an effort to
  655. keep United States technology competitive abroad.  The SPA claims
  656. that most software and hardware
  657. vendors, aware of these export controls, decide not to manufacture
  658. encryption technology because they
  659. realize that their very best technology cannot be exported.  Thus,
  660. they claim, there are far fewer domestic
  661. vendors than would otherwise exist.10
  662.  
  663. Many commentators have speculated on the influence of the escrow
  664. encryption standard (Clipper) on the
  665. global market.  Georgetown University Professor Dorothy Denning, one
  666. of the evaluators of the
  667. SKIPJACK algorithm used in the proposed key-escrow arrangement and an
  668. advocate of its deployment,
  669. states that if the technology provided by Clipper catches on, it
  670. could become the de facto standard in the
  671. United States, either the only device or the predominant device
  672. available on the market.33 
  673.  
  674. Marc Rotenberg, director of the Washington office of Computer
  675. Professionals for Social Responsibility
  676. (CPSR), believes that the government would be able to wield
  677. considerable clout in making the key-escrow
  678. arrangement a de facto standard on the market.13   He explains that
  679. the government can exert enormous
  680. authority on creating, developing, and enforcing technical standards
  681. through the procurement process. 
  682. Through this procurement process, the government can require any
  683. manufacturer selling phones to the
  684. government or government contractors to install the key-escrow
  685. arrangement in their phones.  AT&T
  686. supplies an enormous amount of telecommunications services and
  687. equipment to the government, thus
  688. making the government one of AT&T~s largest customers.  In response
  689. to the Presidentially approved
  690. Clipper initiative, AT&T has started incorporating the key-escrow
  691. arrangement in some of its phones,
  692. a powerful illustration of the enormous spending power of the
  693. government.
  694.  
  695. However, the Federal government does not represent a large percentage
  696. of the market or the revenue for
  697. all American companies providing communications or computer
  698. technology.  For example, Bill Ferguson
  699. of Semaphore Communications Corp. states that government purchases
  700. are less than one percent of
  701. Semaphore~s global sales potential.  With trade restrictions applied,
  702. the government still supplies less than
  703. five percent of Semaphore~s expected sales.34   Companies such as
  704. Semaphore and many represented by
  705. the SPA see foreign markets as potentially larger sources of income
  706. than the U. S. government and
  707. therefore want trade restrictions relaxed so that more market
  708. opportunities can open up.  As it stands
  709. now, many in the encryption industry fear that products using the
  710. Clipper chip will be effectively
  711. unexportable due to United States government retention of the
  712. keys.35,36
  713.  
  714. The Clinton administration has stated that use of a key escrow system
  715. will not be mandatory ("The
  716. Administration has progressed far enough in its review to conclude it
  717. will not propose new legislation
  718. to limit use of encryption technology.")37.  However, if this
  719. decision were reversed (perhaps by a later
  720. administration), there is some danger that the proposed key-escrow
  721. arrangement could function as a
  722. Prohibition and the organized crime that
  723. resulted from it, the key-escrow arrangement could encourage contempt
  724. for law enforcement and a
  725. complete disregard of the law.35  Doug Miller of the SPA feels that a
  726. black market would almost certainly
  727. arise if the United States government makes some standard
  728. mandatory.10 
  729.  
  730. Given the increased use of computers and networks, a steady increase
  731. in the market for encryption
  732. products is likely, as is a continued expansion into this market by
  733. foreign manufacturers.  United States
  734. hardware and software producers, stymied by relatively stringent
  735. export restrictions imposed by the
  736. United States government and possibly further hindered by the
  737. necessity of accommodating what may be
  738. an unexportable Clipper standard, may find it even more difficult to
  739. remain competitive players in
  740. international markets.
  741.  
  742.  
  743.  
  744.  
  745.                                  4.  EXPORT CONTROLS
  746.  
  747.  
  748. Existing controls on the export of encryption software and hardware
  749. has been a topic of concern for
  750. United States manufacturers and vendors. Despite a February 1991
  751. COCOM decision to decontrol all
  752. mass market software, including encryption software, as other
  753. commercial, dual-use items, United States
  754. export control policy continues to categorize many encryption items
  755. as ~munitions-related~, thereby
  756. subjecting them to applicable export laws.38  Anyone wishing to
  757. export the strongest encryption products
  758. is therefore required, under the Arms Export Control Act, to obtain
  759. individual licenses from the Office
  760. of Defense Trade Controls at the State Department (though some
  761. products of lesser strength are under
  762. the control of the Commerce Department).39  This has led to a
  763. prohibition on export of encryption
  764. products using the popular and relatively powerful DES algorithm for
  765. file and data encryption (except
  766. for financial applications and use by subsidiaries of U. S. companies
  767. abroad).
  768.       
  769. Obtaining a license for these restricted encryption products includes
  770. a review of the product by the
  771. National Security Agency (NSA) to determine its exportability.
  772. According to Allan Suchinsky, Chief of
  773. Electronic and Combat Systems Licensing at the Office of Defense
  774. Trade Controls at the Department of
  775. State, this process normally takes between one and six weeks.40
  776. According to some officials and business
  777. people, however, a newly developed encryption product can actually
  778. take up to ten months to go through
  779. the review process, although products employing certain algorithms
  780. are either on a list of automatically
  781. approved items or eligible for ~fast track~ consideration. In the
  782. high-tech arena where product cycles are
  783. often measured in months, large market shares can be lost due to such
  784. delays.  Some industry
  785. representatives have complained that the average time it takes to
  786. obtain a similar license for encryption
  787. products outside the United States is much less.34 
  788.  
  789. The market analysis above describes the steadily growing global
  790. market for strong encryption products,
  791. one that is potentially worth millions (if not billions) of dollars.
  792. But United States manufacturers believe
  793. that their hands are tied by stringent export laws which, for
  794. export of encryption products of DES strength or stronger to anyone
  795. other than financial institutions. 
  796. They also believe that foreign manufacturers in Europe and elsewhere
  797. are not similarly restricted, and
  798. are free to manufacture and export DES- and RSA-based products. This
  799. asymmetry in export laws has
  800. undesirable consequences for United States manufacturers of
  801. encryption products.
  802.  
  803. DES-based products are already being used in encryption products
  804. manufactured in foreign countries
  805. including Japan, Russia, Germany, France, Austria, UK, Switzerland,
  806. Netherlands, Austria, Australia
  807. and Sweden.32  The DES algorithm, in fact, is also freely obtainable
  808. via the Internet, as is DES-based
  809. encryption software. The encryption ~genie~  would appear to be out
  810. of the bottle, and at this point it
  811. is not clear to United States companies  why the State Department is
  812. inhibiting the wide proliferation of
  813. DES technology,41 now that it is not in a position to prevent it.
  814. Along with this, one must consider the
  815. trends towards implementation of encryption products in software, and
  816. the miniaturization of encryption
  817. hardware. Taken together, these trends indicate that it will become
  818. increasingly difficult to enforce the
  819. existing export laws, and tougher to prevent the spread of
  820. DES-caliber algorithms.  Despite this, many
  821. government officials have continued to speak strongly in favor of
  822. continued restrictions on DES, stating
  823. that attempting to control export of products using the algorithm
  824. still prevents a significant number of
  825. international terrorists, criminals, and unfriendly foreign powers
  826. from acquiring advanced encryption
  827. technology.  As a result, they believe that export restrictions on
  828. DES remain in the United States~ best
  829. interest, even if they may not always be fully effective.40 
  830.  
  831. The current export restrictions have a detrimental effect on many
  832. U.S. companies.  According to Addison
  833. Fischer of Fischer International, ~export controls are estimated to
  834. have cost Fischer International millions
  835. of dollars in lost revenue for cryptographic products"42  due to
  836. rejection by foreign customers of the
  837. weaker encryption products United States companies are forced to
  838. supply, lost sales opportunities, and
  839. delays with paperwork necessary for obtaining the appropriate
  840. licenses.  And since DES is already easily
  841. available overseas, Fischer feels that existing export restrictions
  842. are simply placing an embargo on United
  843. States DES-based products. Similar complaints have been voiced by
  844. other United States companies.  The
  845. Computer Systems Security and Privacy Advisory Board agrees that
  846. "current controls are negatively
  847. impacting U. S. competitiveness in the world market and are not
  848. inhibiting the foreign production and
  849. use of cryptography [DES and RSA]." 43
  850.  
  851. Thus, if the United States government continues to control
  852. DES-strength encryption manufactured in the
  853. U.S., the following results may come to pass:
  854.  
  855.       ~ Foreign competitors of United States encryption companies
  856. will likely gain control of the
  857.       global market for encryption products.
  858.  
  859.       ~ United States companies will lose significant market share in
  860. the global market for encryption
  861.       products. They are likely to lose sales opportunities as they
  862. compete in the electronic security
  863.       market against products based on DES and RSA with their own
  864. weaker versions based on RC2
  865.       and RC4.
  866.  
  867.       ~ DES strength encryption will continue to proliferate to
  868. foreign destinations, either through
  869.       foreign companies or through the ever-growing Internet. The
  870. effort of current United States
  871.       export policy to inhibit this by restricting exports on
  872. DES-based technology is unlikely to
  873.       succeed.
  874.  
  875.       ~ If, indeed, United States companies get displaced in the
  876. international encryption marketplace,
  877.       United States ~national security~ will also be threatened by a
  878. weakened domestic encryption (and
  879.       computer) industry.
  880.  
  881.  
  882. In July 1992, the Software Publishers Association reached an
  883. agreement with the Bush Administration
  884. that would permit an expedited 7-day review process for products
  885. based on RC2 and RC4 algorithms. 
  886. These algorithms are still much weaker than DES; but they are also
  887. stronger than any other algorithms
  888. which were exportable prior to this agreement.  This was an important
  889. development in the effort to
  890. decontrol the export of encryption products from the United States.
  891. Projecting forward from this
  892. milestone, it is likely that as the private sector continues to push
  893. for further relaxation of these controls,
  894. more and stronger encryption products will be put on similar
  895.  
  896. The Federal government seeks to encourage the use of key escrow
  897. systems for encrypting
  898. telecommunications.44  The standard proposed for these systems, the
  899. "Clipper" escrowed encryption
  900. standard,45  is particularly noteworthy in light of the fact that law
  901. enforcement officials, with a court
  902. order, can obtain both parts of a special key that enables them to
  903. decrypt transmissions encrypted with
  904. a particular chip.  At the time of this writing, how Clipper will be
  905. treated for export purposes is not
  906. clear.  If it is treated the same way as DES, it will certainly
  907. provide another example of the Byzantine
  908. nature of U. S. export policy.  In any case, it is likely that
  909. foreign customers will reject these products,
  910. due to fears of both United States tampering and the possible
  911. existence of a secret ~trap door,~ which
  912. would enable unauthorized parties to decrypt Clipper-encrypted
  913. transmissions, even without the escrowed
  914. parts of the special key.  Chris Sundt of the multinational
  915. International Computers Ltd. (ICL) claims this
  916. very fear will be the basis of rejecting Clipper as an encryption
  917. alternative in international markets.46  
  918. Other United States based companies share his concern that the key
  919. escrow chip is effectively
  920. unexportable.47 
  921.  
  922. In spite of the concerns described above, it appears unlikely that
  923. United States export laws will become
  924. as relaxed as those in many European countries.  DES-based products
  925. for file and data encryption will
  926. probably not be removed from the munitions list in the near future.
  927. Almost everyone interviewed for
  928. this report felt that NSA will continue to play an increasingly
  929. dominant role in the debate over
  930. cryptography in the U.S., and will continue to have influence much
  931. stronger than NIST~s on encryption
  932. policy issues.  NSA will continue to strongly voice its opinions to
  933. the President and pressure him to keep
  934. DES-based encryption on the munitions list and under the jurisdiction
  935. of the Department of State.
  936.  
  937.  
  938.  
  939.  
  940. 5.  PUBLIC POLICY ISSUES
  941.  
  942.       
  943. 5.1  EXECUTIVE BRANCH
  944.  
  945. Due to the increasing public availability of strong hardware- and
  946. software-based encryption products, a
  947. debate over their regulation and use is emerging.48   The debate over
  948. Clipper and regulation of other
  949. encryption technologies is, in many ways, the continuation of an
  950. ongoing discussion in the United States
  951. about the proper balance between national security and individual
  952. freedom of action.  On one side of the
  953. debate are those agencies charged with defending America from crime,
  954. terrorism, and external threat,
  955. such as the Federal Bureau of Investigation (FBI), the National
  956. Security Agency (NSA), the Central
  957. Intelligence Agency, the Department of State, and the Department of
  958. Justice.  These powerful agencies,
  959. in turn, are challenged by advocacy groups and high-technology
  960. industries, which place a greater
  961. emphasis on individual rights, in particular personal privacy, or
  962. corporate profits.  The United States
  963. Congress may play a major role in determining the balance between the
  964. two.
  965.  
  966. There are several powerful agencies which are leading the
  967. Administration~s effort to control encryption
  968. technology.  First and foremost among these is the National Security
  969. Agency, which for years was the
  970. sole controller of strong encryption in the United States.  NSA has
  971. two primary goals on its agenda.  The
  972. most overt one is the protection of United States national security,
  973. which the NSA does largely with the
  974. help of signal intelligence.49  If terrorists of foreign agents were
  975. to obtain and use strong encryption
  976. hardware or software, NSA~s efforts to learn about and thwart their
  977. activities would be considerably more
  978. difficult.  Indeed, as Marc Rotenberg of Computer Professionals for
  979. Social Responsibility comments, the
  980. continued development of encryption technologies poses one of the
  981. most significant challenges the agency
  982. has faced during the post-Cold War era.13 
  983.  
  984. Less obvious but also important is NSA~s effort to protect its
  985. preeminent role in civilian cryptography. 
  986. For years, NSA had almost complete control over developments in the
  987. encryption field.  In recent years,
  988. however, this control has begun to erode as private firms and
  989. individuals have begun aggressively
  990. developing and using encryption technologies.  The end of the Cold
  991. War and the assignment of
  992. responsibility by the Computer Security Act of 1987 50 for
  993. development of federal unclassified computer
  994. security standards (including cryptography standards) to NIST has
  995. threatened many aspects of NSA~s
  996. traditional role.  Doug Miller of the Software Publishers Association
  997. observed that ~NSA throughout its
  998. existence . . . has had every incentive to delay the inevitable~
  999. (individuals obtaining full control of their
  1000. own cryptography).10 
  1001.  
  1002. The FBI is primarily concerned with investigating serious crimes and
  1003. thwarting domestic terrorism.  In
  1004. a small number of important cases, such as those involving drug
  1005. trafficking, organized crime, or
  1006. terrorism, the FBI gathers information via wiretaps.  Indeed,
  1007. wiretaps have been used in to gather
  1008. evidence in 90% of terrorism cases brought to trial.51  However, the
  1009. FBI has not been able to point to
  1010. a single case to date where encryption has hampered their
  1011. investigation of a case.
  1012.  
  1013. Several developments, however, are making these wiretaps
  1014. progressively more difficult to conduct.  Two
  1015. of these are the increasing complexity of the United States
  1016. telecommunications infrastructure and the
  1017. gradual replacement of copper wires by fiber optics, which can carry
  1018. thousands of conversations in a
  1019. single strand of fiber.  Both of these changes make it more difficult
  1020. for agents, even with phone
  1021. companies~ help, to isolate individual conversations.49   In
  1022. addition, the development of publicly available
  1023. encryption threatens to delay or prevent the FBI~s ability to utilize
  1024. the contents of these wiretaps.  This
  1025. poses serious risks to the lives and safety of the American people
  1026. whom the FBI is charged to protect,
  1027. especially in cases where the Bureau is relying on real-time
  1028. interception of phone calls to protect citizens
  1029. from harm or to apprehend a suspect.52 
  1030.  
  1031. Most of the other executive agencies and departments involved in the
  1032. regulation of encryption technology
  1033. have similar agendas:  protecting American citizens from harm and
  1034. defending their areas of responsibility
  1035. and influence within the government.49 
  1036.  
  1037. There are Constitutional issues related to encryption controls, and
  1038. the Clinton administration recognized
  1039. this when it announced the Clipper initiative.44  Its later review
  1040. has so far found no impinging on
  1041. Americans' Constitutional rights.37   Our colleagues at the GW
  1042. National Law Center basically agree.2,3 
  1043. Other lawyers have differing points of view.53, 54
  1044.  
  1045. Professor James Chandler of the George Washington University National
  1046. Law Center observes that some
  1047. United States industries and proponents of individual rights tend to
  1048. place a stronger emphasis on freedom
  1049. of action than national security and thus oppose stringent
  1050. limitations on encryption technology.55   The
  1051. software publishing community and vendors of hardware-based
  1052. encryption devices have generally focused
  1053. their opposition on current United States export restrictions, which
  1054. cost them millions of dollars
  1055. annually.11  Making a somewhat different argument, individual rights
  1056. advocacy groups such as Computer
  1057. Professionals for Social Responsibility (CPSR) and the American Civil
  1058. Liberties Union (ACLU) assert
  1059. that government is too often intrusive in people~s lives and needs to
  1060. be restrained in this domain.  As a
  1061. result, they tend to oppose any policy initiative which would
  1062. increase the ability of the government to
  1063. monitor activities of persons.55
  1064.  
  1065.  
  1066. 5.2  CONGRESS
  1067.  
  1068. Congress, with its power to make laws and oversee the activities of
  1069. federal agencies, can be a significant
  1070. factor in this ongoing debate.  While the players named so far have
  1071. their own, narrowly defined agendas,
  1072. Congress~ actions are more likely to pay closer attention to the will
  1073. of the American people, on whose
  1074. vote and support their jobs depend.  Indeed, this dynamic has already
  1075. been demonstrated.  
  1076.  
  1077. In 1991, the FBI sponsored the Digital Telephony Proposal, which
  1078. required telecommunications
  1079. equipment manufacturers and service providers to make sure that their
  1080. products had a built-in means
  1081. whereby law enforcement officials could successfully tap into any
  1082. conversation provided they obtained
  1083. a warrant.1  This initiative was undertaken by the FBI in response to
  1084. increasing fear that with the advent
  1085. of digital phone lines, fiber optics, and advanced telephony in
  1086. general, law enforcement might no longer
  1087. be able to conduct wiretaps in the near future.  Unfortunately for
  1088. the FBI, the Digital Telephony Proposal
  1089. angered a large number of voters and telecommunications equipment
  1090. manufacturers, who in turn put
  1091. pressure on their congressmen.10  As a result, the proposal was never
  1092. allowed to reach the House floor.
  1093.  
  1094. Congress has very recently mandated a comprehensive study of
  1095. cryptography technology and national
  1096. cryptography policy by the National Academy of Sciences.56
  1097. Opponents pointed out that this proposal,
  1098. while in some ways meritorious, might also have the effect of
  1099. preserving the status quo for several years,
  1100. even though the status quo was characterized by some as early as 1981
  1101. as needing to be "realigned to
  1102. promote both national security, broadly defined, and encourage
  1103. private-sector competence in designing
  1104. and applying secure systems."57  The study will start up in  late
  1105. 1993 or early 1994.  
  1106.  
  1107. Marc Rotenberg of CPSR observed that the FBI and NSA have learned
  1108. from the fate of the Digital
  1109. Telephony Proposal and have attempted to avoid Congressional
  1110. intervention with the Clipper initiative
  1111. by going through the White House instead of Congress.   Barring such
  1112. intervention at this point, he feels
  1113. the administration will likely face only limited opposition within
  1114. the Administration to the Clipper
  1115. initiative.13  Thus, any slowdown of this initiative is more likely
  1116. to materialize, if it does at all, in
  1117. Congress.  As more people perform an increasing number and range of
  1118. transactions over electronic
  1119. networks, they are becoming increasingly concerned about the
  1120. integrity of their personal information and
  1121. about maintaining their privacy.  Of those interviewed in a Macworld
  1122. poll released July 1993,58 78%
  1123. expressed concerns about their personal privacy (up from 64% in 1978)
  1124. and 68% felt their privacy was
  1125. threatened by computers (up from 38% in 1974).  Other independent
  1126. surveys confirm this trend.59  While
  1127. many of the survey results relate specifically to databases, often in
  1128. specific sectors such as credit
  1129. reporting, computer systems as a whole, including those with insecure
  1130. communication lines, are coming
  1131. under increasing scrutiny.  Congress will be placed under escalating
  1132. pressure to pass new laws governing
  1133. information technology, especially with the increased attention being
  1134. devoted to the design and
  1135. development of the National Information Infrastructure.60
  1136.  
  1137. Congress~ decisions in this area and indeed the outcomes of the
  1138. debate over encryption policy in general
  1139. will be the result of the ongoing struggle in American society among
  1140. government, individuals, and
  1141. industries.  Although this struggle will likely result in
  1142. oscillations in policy, national security may be
  1143. gradually redefined in terms of economic security.  This is the
  1144. expectation of Professor James Chandler,55 
  1145. who anticipates that controls on the export of encryption hardware
  1146. and software will eventually be lifted.
  1147.  
  1148. There are already some signs that Congress may be willing to ease
  1149. restrictions on the export of
  1150. encryption products and perhaps in other encryption-related areas as
  1151. well.  In early 1991, the Software
  1152. Publishers Association suggested an amendment to the renewal of the
  1153. Export Administration Act that
  1154. would have transferred authority over software exports to the
  1155. Commerce Department.  This amendment,
  1156. the Levine Amendment, was accepted by the House Foreign Affairs
  1157. Committee, prompting aggressive
  1158. lobbying by the National Security Agency of key congressmen in order
  1159. to prevent inclusion of this
  1160. amendment in the reauthorization bill.  Despite this lobbying, the
  1161. full House kept the amendment in the
  1162. Export Administration Act reauthorization.61  NSA later succeeded in
  1163. persuading President George Bush
  1164. to promise a veto of any reauthorization bill which included the
  1165. Levine Amendment or similar provisions,
  1166. but this incident does demonstrate Congress~ more liberal stance on
  1167. encryption export regulation.  And,
  1168. of course, there is a different administration now in power.  H. R.
  1169. 3627, introduced in the closing days
  1170. of Congress' 1993 session,62 effectively does the same thing, and it
  1171. is conceivable that it will pass in
  1172. 1994.
  1173.  
  1174.  
  1175. 5.3  TRENDS
  1176.  
  1177. To summarize public policy trends,
  1178.  
  1179. crime, the FBI and the
  1180. NSA will continue to advocate restraints on encryption technology and
  1181. encourage the
  1182. development of encryption devices and telecommunications systems
  1183. which allow the
  1184. government to continue conducting wiretaps.
  1185.  
  1186. within the government, most likely at the expense of NIST.
  1187.  
  1188. technology, the NSA will
  1189. likely continue to favor closed forums where it can present
  1190. sensitive, classified material
  1191. which may not have been obtained had U. S. enemies been able to
  1192. obtain effective
  1193. encryption.  These forums such as the National Security Council, will
  1194. be favored by them
  1195. over open ones.  The agency will continue its effort to keep relevant
  1196. decisions out of the
  1197. hands of Congress. 
  1198.  
  1199. will place
  1200. increasing pressure on the government to liberalize restrictions on
  1201. the use and export of
  1202. encryption software and hardware.
  1203.  
  1204. action taken to
  1205. reverse the Clinton administration~s progress on the Clipper
  1206. initiative or the current
  1207. system of export controls will involve Congress as well as the
  1208. executive branch.  The
  1209. judicial branch (notably the Supreme Court) has not had occasion to
  1210. rule on the issues
  1211. surrounding the debate.
  1212.  
  1213.  
  1214.  
  1215.  
  1216.                             6.  POTENTIAL SCENARIOS
  1217.  
  1218.  
  1219. If and when a new cryptography policy emerges, there will be winners
  1220. and losers among the pool
  1221. of ~players,~ a pool that roughly consists of law enforcement
  1222. agencies, United States
  1223. manufacturers and vendors of encryption products, and the United
  1224. States public. Based on the
  1225. results of the preceding analysis, four scenarios can be envisioned.
  1226.  
  1227.       1. Complete decontrol of cryptography.  The use of strong
  1228. encryption by the United
  1229.       States public, as well as its export by United States
  1230. manufacturers, could be completely
  1231.       decontrolled by the government at the direct expense of law
  1232. enforcement and national
  1233.       security.  This would please some members of the public, for
  1234. they would have
  1235.       maintained control over their privacy. United States
  1236. manufacturers of encryption products
  1237.       would also likely benefit from this move. 
  1238.  
  1239.       2. Domestic decontrol of cryptography with export regulations.
  1240. Strong encryption could
  1241.       remain decontrolled for use by the general public, but strict
  1242. regulations would remain on
  1243.       its export. While the American public would still be relatively
  1244. content, United States
  1245.       industries would lose sales and potential market share due to
  1246. exclusion from the lucrative
  1247.       international market for encryption products.  The large
  1248. domestic market, however,
  1249.       would remain open, guaranteeing some revenues for encryption
  1250. product manufacturers. 
  1251.       Law enforcement agencies, on the other hand, would lose in the
  1252. short term in either of
  1253.       these scenarios, because their electronic surveillance
  1254. abilities would be diminished.
  1255.  
  1256.       3. Voluntary escrowed encryption.  Escrow a de facto standard.
  1257. (This is the Clinton
  1258.       administration's proposed scenario.)  The escrowed encryption
  1259. standard could become
  1260.       a de facto national standard for voice, fax, and data
  1261. communications over the public
  1262.       switched telephone network.  While other encryption products
  1263. would be built, they would
  1264.       gain little market acceptance because of demand for
  1265. interoperability.  Thus, law
  1266.       enforcement would be able to listen in on most transmissions.
  1267. The encryption technology
  1268.       might be exportable to countries that implemented the same or a
  1269. similar scheme and
  1270.       agreed to cooperate in international investigations.  United
  1271. States manufacturers might
  1272.       gain or lose in this scenario; they would gain only if Clipper
  1273. received widespread
  1274.       acceptance.  Law enforcement agencies would gain.
  1275.  
  1276.       4. Mandatory escrowed encryption.  The government could choose
  1277. to keep complete
  1278.       control over encryption and enforce a technology similar to the
  1279. escrowed encryption
  1280.       standard.  Law enforcement agencies would come out as winners
  1281. for having maintained
  1282.       their surveillance capabilities.  But a black market for
  1283. foreign encryption products
  1284.       smuggled into the United States would probably be created by
  1285. members of the public,
  1286.       including criminals, who desire more secrecy.  How United
  1287. States companies would react
  1288.       in this scenario depends on whether this government enforced
  1289. standard is designed to be
  1290.       exportable or not.  If it is unexportable, United States
  1291. companies currently involved in
  1292.       the manufacture and sale of encryption products would be almost
  1293. completely blocked
  1294.       from the international market and would be restricted to
  1295. marketing the government
  1296.       enforced standard domestically. This would result in
  1297. considerable financial loss for the
  1298.       industry.  If, on the other hand, the standard is an exportable
  1299. item, and designed with an
  1300.       eye to the requirements of the international market, then
  1301. United States companies would
  1302.       be better off and could maintain a level of international
  1303. economic competitiveness.
  1304.  
  1305. It is very difficult to determine which scenario is most likely and
  1306. what its consequences really
  1307. might be.  The policy debate has to date been carried out with each
  1308. side making their own
  1309. assumptions, not all of which are publicly stated.  The economic
  1310. implications for the Clipper
  1311. proposal have not been examined adequately.43   Use of an explicit
  1312. model of the situation would
  1313. make these assumptions explicit, thus contributing to an informed
  1314. discussion.
  1315.       
  1316. Recently, a user-friendly computer model64  based on an Excel
  1317. spreadsheet has been developed
  1318. to investigate the costs, risks, and benefits of issues related to
  1319. the National Information
  1320. Infrastructure.  Issues addressed include digital telephony, export
  1321. controls of cryptography, key
  1322. escrow systems, security features in communications hardware, etc.
  1323. It is designed to allow users
  1324. with varying political perspectives to make tradeoffs based on varied
  1325. parameter values, which the
  1326. users have complete control over.  While conceding that no
  1327. mathematical model can adequately
  1328. represent intangible values or political tradeoffs completely, it
  1329. offers a useful first step towards
  1330. a common ground for analyzing at least some of the problems described
  1331. above.  It has recently
  1332. been offered to both to government and its opponents in the key
  1333. escrow debate.  Though it is
  1334. beyond the scope of this particular project, some of the
  1335. investigators of this study plan to use it
  1336. to further explore the scenarios above.
  1337.           
  1338.  
  1339.  
  1340. REFERENCES
  1341.  
  1342.  
  1343. 1.    Dorothy Denning, ~To tap or not to tap?~ Communications of the
  1344. ACM vol. 36,
  1345.       no. 3 (March 1993): 25-44.
  1346.  
  1347. 2.    J. Chandler, D.  Arrington, and L. Gill, "Issues Regarding the
  1348. Use of Cryptographic
  1349.       Technologies in the Commercial Sector," George Washington
  1350. University, National
  1351.       Law Center, 1993.
  1352.  
  1353. 3.    J. Chandler, D.  Arrington, and L. Gill, "Foreign Encryption
  1354. Technology Controls,"
  1355.       George Washington University, National Law Center, 1993.
  1356.  
  1357. 4.    National Bureau of Standards, "Data Encryption Standard,"  FIPS
  1358. PUB 46,
  1359.       (Washington, D. C.:  January 1977).
  1360.  
  1361. 5.    G. Simmons, Contemporary Cryptology (Piscataway, NJ:  IEEE
  1362. Press, 1992).
  1363.  
  1364. 6.    Dorothy Denning, Cryptography and Data Security (Reading,
  1365. Massachusetts:
  1366.       Addison-Wesley, 1982).
  1367.  
  1368. 7.    R. Rivest, A. Shamir, and L. Adelman,  ~A method for obtaining
  1369. digital signatures
  1370.       and public-key cryptosystems,~  Communications of the ACM
  1371. (February 1978): 120-
  1372.       126.
  1373.  
  1374. 8.    W. Diffie and M. E. Hellman, "New Directions in Cryptography,"
  1375. IEEE Transactions
  1376.       on Information Theory, vol. IT-22 (November 1976): 644-654.
  1377.  
  1378. 9.    Peter Wayner, Statement in "Cryptographic Issue Statements
  1379. Submitted to the
  1380.       Computer System Security and Privacy Advisory Board," by NIST,
  1381. 27 May 1993,  
  1382.       pp. 13-17.
  1383.  
  1384. 10.   Douglas Miller,  Interview by Steven Heckler and Ann
  1385. Huybrechts, 26 July 1993, 
  1386.       Software Publishers Association,  Washington, D. C.
  1387.  
  1388. 11.   Martin Hellman (Stanford University electrical engineering
  1389. professor), Interview by
  1390.       Faraz Ali, 11 August 1993, phone.
  1391.  
  1392. 12.   Ilene Rosenthal,  Testimony before the Computer System Security
  1393. and Privacy
  1394.       Advisory Board, 3 June 1993.
  1395.  
  1396. 13.   Marc Rotenberg (Computer Professionals for Social
  1397. Responsibility), Interview by
  1398.       Steven Heckler and Ann Huybrechts, 27 July 1993, Washington, D.
  1399. C.
  1400.  
  1401. 14.   Ivars Peterson, ~Encrypting Controversy,~ Science News, 19 June
  1402. 1993, 394-396.
  1403.  
  1404. 15.   Jim Bidzos,  Private communication with Lance J. Hoffman, 3
  1405. November 1993.
  1406.  
  1407. 16.   Philip Zimmerman,   Pretty Good Privacy 2.2 Manual, 6  March
  1408. 1993.
  1409.  
  1410. 17.   Peter Schweitzer, Statement in "Cryptographic Issue Statements
  1411. Submitted to the
  1412.       Computer System Security and Privacy Advisory Board," by NIST,
  1413. 27 May 1993, 
  1414.       200-203.
  1415.  
  1416. 18.   Dorothy Denning, Testimony before the Computer System Security
  1417. and Privacy 
  1418.       Advisory Board,  29 July  1993.
  1419.  
  1420. 19.   E. Brickell et al., "SKIPJACK Review Interim Report: The
  1421. SKIPJACK Algorithm",
  1422.       28 July  1993,  Posted on sci.crypt and many other places on
  1423. the Internet.  Available
  1424.       from NIST.
  1425.  
  1426. 20.   S. Micali, Fair Cryptosystems, Report MIT/LCS/TR-579.b, MIT
  1427. Laboratory for
  1428.       Computer Science, Cambridge, Mass, November 1993.
  1429.  
  1430. 21.   Y. Desmedt, Y. Frankel, and M. Yung, "A Scientific Statement on
  1431. the Clipper Chip
  1432.       Technology and Alternatives," paper distributed at the Clipper
  1433. session of the 16th
  1434.       National Computer Security Conference, 21 September 1993.
  1435.  
  1436. 22.   Gary H. Anthes, ~Use outpaces addresses on Internet,~
  1437. Computerworld vol. 27, no.
  1438.       17 (26 April  1993):  51-52.
  1439.  
  1440. 23.   John Markoff, "Thing," The New York Times, 5 September 1993,
  1441. Section 9, p. 11.
  1442.  
  1443. 24.   Stephen Kent, ~Internet Privacy Enhanced Mail," Communications
  1444. of the ACM vol. 
  1445.       36, no. 8 (August 1993): 48.
  1446.  
  1447. 25.   Stephen Crocker, ~Internet Privacy Enhanced Mail,~  The Third
  1448. CPSR Cryptography
  1449.       and Privacy Conference Source Book, 7  June 1993.
  1450.  
  1451. 26.   Peter Williams, OSISEC Introduction and Overview, University
  1452. College, London, 15
  1453.       April 1993.
  1454.  
  1455. 27.   Datapro, Inc., Datapro Report on Encryption Devices, Delran,
  1456. NJ, March 1993.
  1457.  
  1458. 28.   David Chaum, ~Achieving Electronic Privacy,~  Scientific
  1459. American vol. 267, no. 2
  1460.       (August 1992):  96-101.
  1461.  
  1462. 29.   Kevin Kelly, ~E-Money,~ Whole Earth Review, Summer 1993.
  1463.  
  1464. 30.   S. Von Solms and D. Naccache, "On Blind Signatures and Perfect
  1465. Crimes,"
  1466.       Computers and Security vol. 11, no. 6 (October 1992): 581-583.
  1467.  
  1468.  
  1469. 31.   International Resource Development, Data, Fax, and Voice
  1470. Encryption Equipment
  1471.       Worldwide, Report #782 (December 1991), New Canaan, CT, pp.
  1472. 267-271.
  1473.  
  1474. 32.   Douglas Miller, Statement before the Computer System Security
  1475. and Privacy
  1476.       Advisory Board, 1 September 1993.
  1477.  
  1478. 33.   Dorothy Denning, Interview by Steven Heckler and Ann
  1479. Huybrechts, 26 July 1993,
  1480.       Georgetown University, Washington, D. C.
  1481.  
  1482. 34.   William Ferguson, Testimony Before the Computer System Security
  1483. and Privacy
  1484.       Advisory Board, 29 July 1993.
  1485.  
  1486. 35.   Lance J. Hoffman, ~Clipping Clipper,~ Communications of the ACM
  1487. vol. 36, no. 9
  1488.       (September 1993):  15-17.
  1489.  
  1490. 36.   Stephen T. Walker, Testimony before the Subcommittee on
  1491. Economic Policy, Trade
  1492.       and Environment of the Committee on Foreign Affairs of the U.
  1493. S. House of
  1494.       Representatives, 12 October 1993.
  1495.  
  1496. 37.   J. Podesta, White House memo to Jerry Berman, Digital Privacy
  1497. and Security
  1498.       Working Group, on Key Escrow Encryption Technology, July 29,
  1499. 1993.
  1500.  
  1501. 38.   L. E. Christensen, "Technology and Software Controls" in Law
  1502. and Policy of Export
  1503.       Controls:  Recent Essays on Key Export Issues,  Section of
  1504. International Law and
  1505.       Practice of American Bar Association,  August 1993, pp. 3-33.
  1506.  
  1507. 39.   International Traffic in Arms Regulation (ITAR),  22 CFR
  1508. 120-130.
  1509.  
  1510. 40.   Allan Suchinsky, Presentation at George Washington University,
  1511. Washington, D.C.,
  1512.       30 June 1993. 
  1513.  
  1514. 41.   Edward Regan, ~United States Business Views On Encryption and
  1515. The Key Escrow
  1516.       Chip,~  Testimony before the Computer System Security and
  1517. Privacy Advisory
  1518.       Board, 30 July 1993.
  1519.  
  1520. 42.   Addison Fischer, Statement in "Cryptographic Issue Statements
  1521. Submitted to the
  1522.       Computer System Security and Privacy Advisory Board,"  by NIST,
  1523. 27 May 1993, 
  1524.       pp.  204-215.
  1525.  
  1526. 43.   Computer System Security and Privacy Advisory Board Resolution
  1527. 93-5, 
  1528.       1-2 September  1993.
  1529.  
  1530. 44.   The White House, Press release concerning the key escrow
  1531. initiative, 16  April  1993.
  1532.  
  1533. 45.   National Institute of Standards and Technology, "A Proposed
  1534. Federal Information
  1535.       Processing Standard for an Escrowed Encryption Standard (EES),"
  1536. Federal Register
  1537.       vol. 58, no. 145 (30 July  1993):  40791-40794.
  1538.  
  1539. 46.   Chris Sundt, Testimony before the Computer System Security and
  1540. Privacy Advisory
  1541.       Board, 29 July 1993.
  1542.  
  1543. 47.   Testimony of representatives from  Fisher International,
  1544. Hewlett-Packard, and
  1545.       Racal-Guardata before the Computer System Security and Privacy
  1546. Advisory Board, 
  1547.       29 July 29 1993.
  1548.  
  1549. 48.   Clark Weissman, ~A national debate on encryption
  1550. exportability,~ Communications of
  1551.       the ACM vol. 34, no. 10 (October, 1991):  162.
  1552.  
  1553. 49.   Lou Giles, Presentation delivered at George Washington
  1554. University, Washington,
  1555.       D. C.,  4 August 1993.
  1556.  
  1557. 50.   Computer Security Act of 1987, Public Law 100-235 (H.R. 145),
  1558. 101 Stat. 1724-
  1559.       1730.
  1560.  
  1561. 51.   James Kallstrom, Testimony before the Computer System Security
  1562. and Privacy
  1563.       Advisory Board, 29 July  1993.
  1564.  
  1565. 52.   Alan MacDonald, Interview by Steven Heckler, 22 July 1993.
  1566.  
  1567. 53.   Statement of the American Civil Liberties Union in
  1568. "Cryptographic Issue Statements
  1569.       Submitted to the Computer System Security and Privacy Advisory
  1570. Board,"  by NIST,
  1571.       27 May 1993, pp. 195-199.
  1572.  
  1573. 54.   Digital Privacy and Security Working Group, white paper on key
  1574. escrow encryption
  1575.       technology, 30 September 1993.
  1576.  
  1577. 55.   James Chandler, Interview by Faraz Ali and Steven Heckler, 6
  1578. August  1993, George
  1579.       Washington Univeristy, Washington, D. C.
  1580.  
  1581. 56.   National Defense Authorization Act for Fiscal Year 1994 (H.R.
  1582. 2401, Sec. 267).
  1583.  
  1584. 57.   V. C. Walling, Jr., D. B. Parker, and C. C. Wood, "Impacts of
  1585. Federal Policy
  1586.       Options for Nonmilitary Cryptography,"  SRI International
  1587. Research Report 32, April
  1588.       1981, Menlo Park, CA.
  1589.  
  1590. 58.   Charles Piller, ~Privacy in Peril: Macworld Special Report on
  1591. Electronic Privacy,"
  1592.       Macworld, vol. 10, no. 7,  July 1993, pp. 8-14.
  1593.  
  1594. 59.   L. Harris and Associates, Harris-Equifax Consumer Privacy
  1595. Survey 1992,  New
  1596.       York: Louis Harris and Associates, 1992.
  1597.  
  1598. 60.   Information Infrastructure Task Force, The National Information
  1599. Infrastructure:
  1600.       Agenda for Action, Department of Commerce, 15  September 1993.
  1601.  
  1602.  
  1603. 61.   Jonathan Groner, ~When it Comes to Software, U.S. Sees Military
  1604. Hardware;
  1605.       Concern over Spread of Encryption Codes Hurts Exports,~  The
  1606. Connecticut Law
  1607.       Tribune, 21 December 1992, p. 12.
  1608.  
  1609. 62.   H. R. 3627, "A Bill to Amend the Export Administration Act of
  1610. 1979 with respect to
  1611.       the control of computer and related equipment," 1993.
  1612.  
  1613. 63.   J. Mintz and J. Schwartz, "Encryption Program Draws Fresh
  1614. Attacks," The
  1615.       Washington Post, 18 September 1993, p. C1.
  1616.  
  1617. 64.   Dave Kohls and Lance J. Hoffman, "TurboTrade: A National
  1618. Information
  1619.       Infrastructure Cost/Risk/Benefit Model,"  Report
  1620. GWU-IIST-93-17, Department of
  1621.       Electrical Engineering and Computer Science, The George
  1622. Washington University,
  1623.       Washington, D. C., September 1993.
  1624.